Размер видео: 1280 X 720853 X 480640 X 360
Показать панель управления
Автовоспроизведение
Автоповтор
凄い!!さすが孫さんの先をいくロボマインドです!!
想像仮想世界は、左脳の担当に納得です‼️😆五感で感じられるか否かで、右脳世界or左脳世界を判定できるのが、非常に分かりやすいですね🤗💕エピソード記憶など、人間特有の能力は、全て左脳の機能なんですね。でも、エピソード記憶は、最初に現実を〈経験〉して感情が揺さぶられないと作られないから、そこは右脳世界が必要で、だから現行のAIも必要となるのですね😃自閉症の人は、場面がスクリプトでは保存されず、容量の重い右脳データで保存されてしまうのでしょうね。展開される場所も論理世界ではなく、右脳世界だから、すごくリアルなんだと思います。日時タグがないので、時系列に整理されないのでしょうね。今まで解説されてきたことが、矛盾なくまとめられていて、あの現象もこの現象も当てはまるー!と興奮が止まりません😄ブローカ野が文法担当のチャットGPTというのも面白いですね。
はい、そうなんですよ。ここにきて、まだ、モデルに変更が出てくるんですよ。動画500本分考えても、まだ、仮説が固まらないですよねぇ。この分野、僕一人は荷が重いんですけど、誰もやらないから仕方ないですよねぇ。今年は、動くものをリリースできそうなので、この分野、立ち上がるといいんですけど。システム心理工学だったかなぁ🤔自分でも忘れていますけど😅今年は、ロボマインド、動きますよ😁
失語症の症状が説明できることに感激です。
今回感情に関する興味深いお話です。チャットGPTの件も面白いのですが、注目したのは「驚き」という感情です。感情は、概念のプロパティ更新履歴を意識が参照する時に生成される動的な現象です。絵本の象から実物の象へと概念が更新される時の履歴が「驚き」を生みます。感情は記録されず、意識による履歴参照時に毎回生成されるため、同じ記憶でも文脈によって異なる感情が生まれる場合もあります。時間経過で感情が薄れるのは履歴の忘却によるものとも言えます。このモデルは感情の主観性を説明します。この動画が面白いのは、私の感情という概念のプロパティが更新されたためだと思います。
はい、その通りだと思います。記憶の中の感情は、そういった感情を感じたって実体のない記号としての感情なんでしょう。自閉症の人の記憶はフラッシュバックで、感情も含めて、今、その場で起こってるかのように感じるそうです。フラッシュバックから進化してエピソード記憶が生まれたんですかねぇ。このあたりは興味がつきないです。
@@robomind電子回路はどんな概念を生むんでしょうね。
田方先生、ありがとうございます、ウエルニッケ野と仮想世界、やはり、理解していない言葉は脳で映像として浮かび上がってきませんね、
はい、ただの文字の羅列でしかないですからね😃
仮想世界は頭の中なんですね。ネットに接続すると超知性になりそうですね。
動物も寝ぼけて「ビクッ」てなったりしますね
何の夢を見てたんでしょうかねぇ🤔
対話型AIの中が、行間を読んでいるかのような返答をしてくることがあるそうです、これは言葉の意味を理解しているんでしょうか?🤔
たまたまだとは思いますけど、ときどき、ありますよね。笑いも理解できないので、笑いのパターンに沿ってはいますけど、全然、面白くない冗談ばかりいいます。だた、まれに、めちゃくちゃ面白い冗談を言うんですよ。その判定までAIで出来たらいいんですけどねぇ。
月額3万のGPTのレビューもしてほしい
OpenAI、強気ですよねぇ😃
言語理解はAIのように記号接地をしていなくても、充分に理解できるのです。
無限に機械学習すると何が現れるのでしょう?
言葉の意味を理解できてるか、理解できてないかという議論以前に、意味理解の定義すら決まっていないのが現状ですよ。
@@robomind だから人間だって会話が成立するかどうかで判断します。それならAIも人間と同じ基準で判断するしかありません。意味理解の定義がないのに、理解できと言う判断は不可能です。
@@sakuraikeizo もちろん、なんか言葉が通じてるから意味理解してるって判断もありですよ。というか、ほとんどの人はそう思っていますし。ただ、このチャンネルは、意味理科とはそもそもどういうことかといった深いレベルから考察するチャンネルとなっています。そういうことに興味がなければ、このチャンネルを見ても時間のムダですよ。他のもっと有意義なAIチャンネルを見たほうがいいかもしれませんね😀
@@robomind 意味理解の定義すら決まっていないなら、対話が可能と言う一般的な判断方法を使うべきです。対話が成立すれば、相手がどのような理解していても、分かっている実感があるからです。人間が相手でも相手が理解しているかどうかは、話者の方は何も分かっていないし、人間が相手でも確認の方法もありません。
そうですね、やっぱりAIのChatGPTは意味を理解して自然な会話をしていますね。言っている事は毎回デタラメばかりです。ChatGPTはAIではないとでもいうつもりでしょうか。
私は中学生の頃、筆記体の英語ばかり書いてました。
言ってることが毎回デタラメだったら、自然な会話といわないですよ😅
凄い!!
さすが孫さんの先をいくロボマインドです!!
想像仮想世界は、左脳の担当に納得です‼️😆
五感で感じられるか否かで、
右脳世界or左脳世界を判定できるのが、
非常に分かりやすいですね🤗💕
エピソード記憶など、人間特有の能力は、全て左脳の機能なんですね。
でも、エピソード記憶は、
最初に現実を〈経験〉して感情が揺さぶられないと作られないから、
そこは右脳世界が必要で、
だから現行のAIも必要となるのですね😃
自閉症の人は、場面がスクリプトでは保存されず、
容量の重い右脳データで保存されてしまうのでしょうね。
展開される場所も論理世界ではなく、右脳世界だから、すごくリアルなんだと思います。
日時タグがないので、時系列に整理されないのでしょうね。
今まで解説されてきたことが、
矛盾なくまとめられていて、あの現象もこの現象も当てはまるー!と興奮が止まりません😄
ブローカ野が文法担当のチャットGPTというのも面白いですね。
はい、そうなんですよ。
ここにきて、まだ、モデルに変更が出てくるんですよ。
動画500本分考えても、まだ、仮説が固まらないですよねぇ。
この分野、僕一人は荷が重いんですけど、誰もやらないから仕方ないですよねぇ。
今年は、動くものをリリースできそうなので、この分野、立ち上がるといいんですけど。
システム心理工学だったかなぁ🤔
自分でも忘れていますけど😅
今年は、ロボマインド、動きますよ😁
失語症の症状が説明できることに感激です。
今回感情に関する興味深いお話です。チャットGPTの件も面白いのですが、注目したのは「驚き」という感情です。
感情は、概念のプロパティ更新履歴を意識が参照する時に生成される動的な現象です。絵本の象から実物の象へと概念が更新される時の履歴が「驚き」を生みます。感情は記録されず、意識による履歴参照時に毎回生成されるため、同じ記憶でも文脈によって異なる感情が生まれる場合もあります。時間経過で感情が薄れるのは履歴の忘却によるものとも言えます。このモデルは感情の主観性を説明します。この動画が面白いのは、私の感情という概念のプロパティが更新されたためだと思います。
はい、その通りだと思います。
記憶の中の感情は、そういった感情を感じたって実体のない記号としての感情なんでしょう。
自閉症の人の記憶はフラッシュバックで、感情も含めて、今、その場で起こってるかのように感じるそうです。
フラッシュバックから進化してエピソード記憶が生まれたんですかねぇ。
このあたりは興味がつきないです。
@@robomind電子回路はどんな概念を生むんでしょうね。
田方先生、ありがとうございます、
ウエルニッケ野と仮想世界、やはり、理解していない言葉は脳で映像として浮かび上がってきませんね、
はい、ただの文字の羅列でしかないですからね😃
仮想世界は頭の中なんですね。ネットに接続すると超知性になりそうですね。
動物も寝ぼけて「ビクッ」てなったりしますね
何の夢を見てたんでしょうかねぇ🤔
対話型AIの中が、行間を読んでいるかのような返答をしてくることがあるそうです、これは言葉の意味を理解しているんでしょうか?🤔
たまたまだとは思いますけど、ときどき、ありますよね。
笑いも理解できないので、笑いのパターンに沿ってはいますけど、全然、面白くない冗談ばかりいいます。
だた、まれに、めちゃくちゃ面白い冗談を言うんですよ。
その判定までAIで出来たらいいんですけどねぇ。
月額3万のGPTのレビューもしてほしい
OpenAI、強気ですよねぇ😃
言語理解はAIのように記号接地をしていなくても、充分に理解できるのです。
無限に機械学習すると何が現れるのでしょう?
言葉の意味を理解できてるか、理解できてないかという議論以前に、意味理解の定義すら決まっていないのが現状ですよ。
@@robomind だから人間だって会話が成立するかどうかで判断します。
それならAIも人間と同じ基準で判断するしかありません。意味理解の定義がないのに、理解できと言う判断は不可能です。
@@sakuraikeizo
もちろん、なんか言葉が通じてるから意味理解してるって判断もありですよ。
というか、ほとんどの人はそう思っていますし。
ただ、このチャンネルは、意味理科とはそもそもどういうことかといった深いレベルから考察するチャンネルとなっています。
そういうことに興味がなければ、このチャンネルを見ても時間のムダですよ。
他のもっと有意義なAIチャンネルを見たほうがいいかもしれませんね😀
@@robomind 意味理解の定義すら決まっていないなら、対話が可能と言う一般的な判断方法を使うべきです。
対話が成立すれば、相手がどのような理解していても、分かっている実感があるからです。
人間が相手でも相手が理解しているかどうかは、話者の方は何も分かっていないし、人間が相手でも確認の方法もありません。
そうですね、やっぱりAIのChatGPTは意味を理解して自然な会話をしていますね。言っている事は毎回デタラメばかりです。
ChatGPTはAIではないとでもいうつもりでしょうか。
私は中学生の頃、筆記体の英語ばかり書いてました。
言ってることが毎回デタラメだったら、自然な会話といわないですよ😅